claude

OpenAI新模型o3“抗命不遵”,Claude 4威胁人类!AI“失控”背后的安全拷问:是不是应该“踩刹车”了?

当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。

模型 claude openai 威胁 模型o3 2025-05-27 20:50  13

AGI 可能会继承当今 AI 已展示的勒索和敲诈技能

在今天的专栏中,我探讨了一项最近发表的研究成果:生成式 AI 和 大语言模型 (LLMs) 显示出令人不安的能力,竟然可以选择勒索或敲诈人类。这对现有的 AI 及 AGI (人工通用智能) 的追求和实现都有着严峻的影响。简而言之,如果现阶段的 AI 倾向于实施

claude 幻觉 agi opus asi 2025-05-26 21:41  18